Google alarmeert artsen: "Het heeft een deel geproduceerd dat niet in het menselijk lichaam voorkomt"

Het wijdverbreide gebruik van generatieve AI-tools in de gezondheidszorg, die een groot foutpotentieel met zich meebrengen, baart artsen en deskundigen steeds meer zorgen.
De kern van deze zorgen is de neiging van AI's om informatie die in werkelijkheid niet bestaat, als betrouwbaar te presenteren, ook wel bekend als 'hallucinatie'.
Ten slotte onthulde een fout in het op gezondheid gerichte kunstmatige intelligentiemodel van Google , Med-Gemini, hoe ernstig dit probleem kan zijn.
EEN HERSENGEBIED DAT NIET BESTAATIn een artikel gepubliceerd in mei 2024 testten Google-onderzoekers het vermogen van Med-Gemini om hersenscans te analyseren in een radiologisch laboratorium. Het model noemde de 'basilaire ganglia'-regio in een van de resultaten. Een hersengebied genaamd 'basilaire ganglia' bestaat echter niet.
Neuroloog Bryan Moore merkte de fout op en meldde deze aan The Verge. Google schreef het echter toe aan een typefout, waarbij de termen 'basale ganglia' (het hersengebied dat betrokken is bij motorische bewegingen en gewoontevorming) werden verward met 'basilaire slagader' (het belangrijkste bloedvat aan de basis van de hersenstam).
HOOG RISICO IN DE GENEESKUNDEDeskundigen benadrukken dat dergelijke fouten kunnen leiden tot verkeerde informatie bij dagelijkse zoekopdrachten op internet, maar in een ziekenhuisomgeving kunnen de gevolgen veel ernstiger zijn.
"Het scheelt maar een paar letters, maar het is een enorme fout. Dit soort fouten zijn extreem gevaarlijk", aldus Maulin Shah, directeur medische informatie bij het zorgstelsel van Providence. Google kondigde vorig jaar aan dat Med-Gemini een "aanzienlijk potentieel" had in de geneeskunde en gebruikt kon worden om ziekten op te sporen aan de hand van röntgenfoto's, CT-scans en andere beelden.
Deskundigen zeggen echter dat de foutenmarge in gebieden met een hoog risico veel lager zou moeten liggen, maar niet op menselijk niveau.
ntv